为什么九位数也留不住?AI 超级团队的 90 天真相

发布于: 2025年8月29日

钱只是门票,不是护城河。

Meta 公司 CEO 扎克伯格斥巨资组建了“AI超级团队”——据报道,他为吸引顶尖AI研究员开出了九位数美元的薪酬包。

然而短短两个月内,这支梦之队就出现“人才断流”。

至少三名新近招募的AI研究员在入职不到1个月内相继辞职,两位直接回到了老东家OpenAI,一位在Meta工作近九年的资深产品负责人也跳槽去了OpenAI。

据统计,超级智能实验室成立两个月,流失人才不少于 8 人,包括研究员、工程师和产品主管。高薪挖来的明星员工转身就走,这让Meta耗费巨资打造的AI团队在90天内就陷入尴尬境地。

为什么九位数年薪都无法留住AI人才?大量管理学研究和业界数据给出了答案:薪酬是敲门砖,但并非决定人才留任的护城河。

MIT Sloan 对 3400 万员工口碑数据和 170 万条 Glassdoor 评价的研究显示,“有毒文化”对离职的解释力是薪酬的 10 倍以上;薪酬在影响因子中的排名居中,并不是主驱动。

也就是说,糟糕的文化和管理氛围比钱更能推动人才离开

Meta招揽AI人才的做法就被OpenAI CEO 山姆·阿尔特曼形容为“唯利是图”,缺乏正向的团队文化。即使开出天价工资,若工作环境令人工智能专家感到失望,他们仍会毅然离开。

此外,薪酬与工作满意度的关联也是相当有限的。经典的元分析研究表明,薪资水平与员工工作满意度的相关系数只有约0.15。

加薪并不会线性带来更高的忠诚度或幸福感。

许多公司发现,当基本物质需求得到满足后,人才更看重成长机会、认同感和工作意义。一项针对开发者的调查就发现,“薪酬待遇”在让工程师愿意留下来的原因中仅排第五。

排在前面的包括良好的文化与愿景、职业成长机会、沟通氛围以及工作灵活性等软性因素。

另一方面,“嵌入性”理论强调:决定员工是否留下的,是他们与组织的多重纽带,而非单一报酬

员工在岗位上的嵌入程度,包含了与同事和团队的紧密联系(链接感)、个人与工作及组织的契合度(匹配度),以及一旦离职将失去什么(牺牲度)。

嵌入性高的人往往更难被高薪所挖走,因为留下来的无形收益很多。相反,如果员工在组织中人际关系疏离、职责不匹配,那么再高的工资也只是孤悬的数字。

当员工最亲密的同事离职时,他们自己跳槽的可能性会显著增加,形成“离职传染”现象。这就不难理解Meta的超级团队中一人走人、接二连三跟进的连锁反应——个人与组织的纽带不够牢固时,离职会像传染病一样蔓延。

把这些放进 AI 实验室:使命与治理一致性 → 研发节奏契约(算力/发表/里程碑) → 组织稳定度(少重组、清晰权责) → 工作制与地域自由度 → 薪酬结构。九位数能“撬开大门”,但留下来靠前四项

相比于 Meta 的只会拿钱砸,可以看下 Anthropic 的做法,怎么用文化把核心研究员绑定。

The Information 的专题称 Anthropic 员工“近乎‘cultish’(像邪教般虔诚),他们的文化绑定可以从三个方面来看。

首先是价值筛选,他们在面试的时候并不是因为你是特别顶尖的人才就一定会要你,候选人会被问到“你尊敬但价值观不同的人”“你为道德放弃利润的一次经历”等非常规问题;行为面试通过率很低。

技术考核之外,把伦理困境、价值观冲突处理放到重权重的行为面试;背调不仅问技能,还问品格。

所以从一开始他们选的就是使命目标一致的伙伴,从源头就剔除了容易意见相背然后大概率后续跳槽的人。

第二步,治理承诺,他们会把“安全与公共利益”刻入公司章程与权力结构。Anthropic 把“董事会的法律裁量(PBC)+ 董事会权力的长期制衡(LTBT)+ 技术层面可触发的硬闸门(RSP)”绑成一个三角,确保当模型变得更危险时,公司“有义务、有权力、也有机制”按下刹车,而不是被短期商业压力裹挟。

比如 Claude Opus 4 在 2025-05 被评估可能触达敏感能力后,Anthropic 即按 RSP 启动 ASL-3 加固再推进。

第三步是最“邪乎”的,WIRED 报道 DVQ 作为公司固定月度活动,直呼其“带有宗教色彩的愿景演讲”。DVQ(Dario 愿景探索)把“为何而战”常态化,形成团队共同语言;管理层公开谈论 AI 风险与社会影响,统一“意义坐标系”。

也就是说,他们会定期开会,就像每周班会课或者道德法治课一样。

这三个步骤,正好对应组织行为学中的三条纽带——匹配(values/mission)→ 链接(rituals/networks)→ 牺牲(治理承诺一旦破坏的成本)。

与单点加薪相比,它们难以被外部复制、也更能降低“90 天内的早期流失”风险。结果显示这种方式也是有效的,VC 机构 SignalFire 的《2025 人才报告》,基于 LinkedIn 数据估算(方法并非审计口径),Anthropic 2 年留任率 ~80%,其他的例如 DeepMind ~78%,OpenAI ~67%,Meta ~64%(同口径对比,仅供趋势参考)。

苹果的 AI 搞得就一塌糊涂,最明显的就是在 AI 人才战中落后,肯定不是钱的事(毕竟苹果不差钱)……归根结底还是要回到“文化—治理—研发节奏”这个链路上,我们可以分四步来拆解分析一下。

首先是研究导向与产品导向的错位,据消息称研究团队希望公开/开源部分基础模型以换取生态协作与学术声誉,但是苹果高层担心披露端侧模型压缩后性能下滑的观感与品牌风险,倾向不公开

研究员非常看中的“学术产出-同行评价-影响力”直接就被冲撞了,这首先就会打击研究人员的内在动机,埋下隐患。

再看 2025 年 6 月,本来说好的新一代 siri 却被延后到了 2026 年,科研到产品的“时间常数”进一步拉长,同时公司评估把 Siri 核心换成外部 LLM(OpenAI / Anthropic / Google),这在团队内部被解读为“我们自己模型不被采纳”的信号,这不就是在纯纯的打击研究员的信心(虽然确实不强🤣),打击感很强。

再看到管理层的变动,Siri 的“一把手”从AI 研究主管 John Giannandrea体系,改为软件产品线 Craig Federighi统筹、由 Mike Rockwell(Vision Pro 负责人)直接带队。也就是“研究主导”→“产品主导”的治理迁移。

再叠加刚讲的新一代 siri 推迟,2025.06.30 起评估把 Anthropic / OpenAI 的模型接到 Siri 上;2025.08.22 又被曝和 Google Gemini 商谈为 Siri 提供定制模型。科研团队的工作目标与“是否外采”的方向同时在变,导致一线同学不清楚“谁拍板、按什么标准拍板”

最后压死骆驼的一根稻草就是 Ruoming Pang 的出走,带动了“离职传染”。基础模型负责人 Ruoming Pang被 Meta 挖走(多方报道称四年超 2 亿美元总包),随后团队成员跟随或投向 OpenAI/Anthropic/Meta。

当然以上视角是从研究员的视角出发,如果从苹果的一贯作风来看,苹果选择谨慎可能是一种理性,公开模型细节可能暴露端侧权衡(小模型压缩后的性能落差),与苹果一贯的品质—隐私—品牌叙事冲突。

其次使用外部模型只是过渡方案,毕竟内部模型确实有点…可能高层是想以第三方模型加速 Siri 能力上线,同时为自研“补课”。

苹果没有变,变的是这个时代……

再回到 meta,我们可以根据多方资料来分析一下“为啥给这么多钱还走”。就像前文说的,许多顶级研究人员更看重使命和研究自由,而非单纯的薪酬。

Wired 指出,一些科学家想参与塑造“人工通用智能(AGI)”并确保其安全,而 Meta 更强调短期产品化和盈利,使命驱动力较弱。

TrendForce 等报道也提到,与真正在推动安全和长期愿景的 Anthropic 等公司相比,Meta 的目标显得功利,这使得一些人才“心理契约”落空。

第二点我认为是团队稳定性,自 2025 年春以来,Meta 已在六个月内对 AI 部门进行了四次大调整,把 Superintelligence Labs 拆分为研究、基础设施、产品和长期模型四个团队。

National CIO Review 指出,这些重组和随之而来的招聘冻结旨在“稳定结构”,却让内部角色和汇报关系反复变化。多位离职者表示,团队“太动态”、经理几个月内换了几次,缺乏稳定性。

← 返回博客列表